Световни новини без цензура!
Microsoft казва, че съперниците на САЩ започват да използват генериращ AI в офанзивни кибер операции
Снимка: euronews.com
Euro News | 2024-02-14 | 18:18:35

Microsoft казва, че съперниците на САЩ започват да използват генериращ AI в офанзивни кибер операции

Критиците на публичното пускане на ChatGPT през ноември 2022 г. и последващите издания от конкуренти твърдят, че е било безотговорно прибързано, като се има предвид, че сигурността е до голяма степен последваща мисъл в тяхното развитие.

Microsoft заяви в сряда, че противниците на САЩ, главно Иран и Северна Корея и в по-малка степен Русия и Китай, започват да използват генеративен изкуствен интелект (AI), за да организират или организират нападателни кибер операции.

Технологичният гигант заяви, че е открил и прекъснал, в сътрудничество с бизнес партньора OpenAI, заплахи, които са използвали или са се опитали да експлоатират разработената от тях AI технология.

В , компанията от Редмънд, Вашингтон, каза, че техниките са били „в ранен стадий“ и нито „особено нови, нито уникални“, но че е било важно да бъдат разкрити публично, тъй като съперниците на САЩ използват широкоезични модели, за да разширят способността си да пробиват мрежи и да провеждат операции за влияние.

Фирмите за киберсигурност отдавна използват машинно обучение в отбраната, главно за откриване на аномално поведение в мрежите. Но престъпниците и злонамерените хакери също го използват, а въвеждането на широкоезични модели, водени от ChatGPT на OpenAI, повиши тази игра на котка и мишка.

Европейските регулатори поставиха залога на Microsoft за 13 милиарда долара върху OpenAI под по-внимателно наблюдение

Microsoft инвестира милиарди долари в OpenAI и съобщението от сряда съвпадна с публикуването на доклад, в който се отбелязва, че генеративният AI се очаква да подобри злонамереното социално инженерство, водещо до по-сложни дълбоки фалшификации и гласово клониране, заплаха за демокрацията през година, в която над 50 държави ще проведат избори, увеличавайки дезинформацията и вече съществуваща,

Ето някои примери, предоставени от Microsoft. Във всеки случай се казва, че всички генериращи AI акаунти и активи на посочените групи са били деактивирани:

Севернокорейската група за кибершпионаж, известна като Kimsuky, е използвала моделите за изследване на чуждестранни мозъчни тръстове, които изучават страната, и за генериране на съдържание, което вероятно ще да се използва в хакерски кампании за фишинг. Иранската революционна гвардия е използвала широкоезични модели, за да помогне при социалното инженерство, при отстраняването на софтуерни грешки и дори при изучаването на това как нарушителите могат да избегнат откриването в компрометирана мрежа. Това включва генериране на фишинг имейли, „включително един, който се преструва, че идва от международна агенция за развитие, и друг, който се опитва да примами видни феминистки към уебсайт за феминизма, създаден от нападатели“. AI помага за ускоряване и увеличаване на производството на имейли. Руското военно разузнаване на ГРУ, известно като Fancy Bear, е използвало моделите за изследване на сателитни и радарни технологии, които може да са свързани с войната в Украйна. Китайската група за кибершпионаж, известна като Aquatic Panda, която е насочена към широк спектър от индустрии, висше образование и правителства от Франция до Малайзия — взаимодейства с моделите „по начини, които предполагат ограничено проучване на това как LLM могат да увеличат техническите си операции.“ Китайската група Maverick Panda, която е насочена към американски отбранителни изпълнители сред други сектори в продължение на повече от десетилетие са имали взаимодействия с широкоезични модели, което предполага, че оценява тяхната ефективност като източник на информация „по потенциално чувствителни теми, високопоставени лица, регионална геополитика, влияние на САЩ и вътрешни работи.“ Главният изпълнителен директор на OpenAI предупреждава че „обществените несъответствия“ могат да направят изкуствения интелект опасен

„Кутията на Пандора беше отворена“

В отделен блог, публикуван в сряда, OpenAI каза, че сегашният му модел GPT-4 чатбот предлага „само ограничени, нарастващи възможности за злонамерени задачи за киберсигурност отвъд това, което вече е постижимо с публично достъпни инструменти, които не са базирани на изкуствен интелект. Агенцията за сигурност на инфраструктурата, Джен Истърли, каза пред Конгреса, че „има две определящи епохата заплахи и предизвикателства. Единият е Китай, а другият е изкуственият интелект.“

Ийстърли каза по това време, че САЩ трябва да гарантират, че ИИ е изграден с мисъл за сигурността.

Критици на публичното съобщение на ChatGPT през ноември 2022 г. — и последващи издания от конкуренти, включително Google и Meta — твърдят, че е било безотговорно прибързано, като се има предвид, че сигурността е до голяма степен закъсняла мисъл в тяхното развитие.

„Разбира се, лошите актьори използват модели на голям език — това решение беше взето, когато кутията на Пандора беше отворена“, каза Амит Йоран, главен изпълнителен директор на фирмата за киберсигурност Tenable.

Някои професионалисти по киберсигурност се оплакват от създаването и разпространението на инструменти на Microsoft за справяне с уязвимостите в широкоезични модели, когато може да се съсредоточи по-отговорно върху това да ги направи по-сигурни.

„Защо не създадете по-сигурни модели на основата на LLM в черна кутия, вместо да продавате защитни инструменти за проблем, за чието създаване помагат?“ попита Гари Макгроу, ветеран по компютърна сигурност и съосновател на Berryville Institute of Machine Learning.

Професорът от Нюйоркския университет и бивш главен служител по сигурността на AT&T Едуард Аморосо каза, че докато използването на AI и модели с големи езици може не представляват непосредствена очевидна заплаха, те „евентуално ще се превърнат в едно от най-мощните оръжия във всяка армия на национална държава.“

Източник: euronews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!